在分配变化下有监督的公平感知机器学习是一个新兴领域,在面对从源到目标域的数据分布的变化时,面临着保持公平和公正预测的挑战。在实际应用程序中,机器学习模型通常在特定数据集上进行培训,但在数据分布可能由于各种因素而可能随时间变化的环境中进行培训。这种转变会导致不公平的预测,对某些以敏感属性(例如种族和性别)为特征的群体不成比例。在本调查中,我们提供了各种类型的分布变化的摘要,并根据这些转变进行了全面研究现有方法,突出了文献中六种常用的方法。另外,该调查列出了公开可用的数据集和经验研究的评估指标。我们进一步探讨了与相关的搜索领域的互连,讨论重大挑战,并确定未来研究的潜在方向。
主要关键词
![arxiv:2402.01327v3 [cs.lg] 2024年5月5日PDF文件第1页](/bimg/0/00ba34e01c007bf03002741d066f16bd5db7e06e.webp)
![arxiv:2402.01327v3 [cs.lg] 2024年5月5日PDF文件第2页](/bimg/5/54e38081681d92d955d49449105b2d3fdcb692e9.webp)
![arxiv:2402.01327v3 [cs.lg] 2024年5月5日PDF文件第3页](/bimg/3/340c997cb0331819501ed7adcfd5b1260d954e89.webp)
![arxiv:2402.01327v3 [cs.lg] 2024年5月5日PDF文件第4页](/bimg/7/7268c4a3e0ffef7b3220f00c3909782a87b38f83.webp)
![arxiv:2402.01327v3 [cs.lg] 2024年5月5日PDF文件第5页](/bimg/f/f21f08538717a6ef82a273d4a7781511b125f949.webp)
